In diesem Video wollen wir uns nun auf eine spezielle Klasse von Optimierungsproblemen
einschränken, nämlich der unrestringierten Optimierung. Das bedeutet im Endeffekt,
wir schauen uns nur eine Minimierung der Zielfunktion an, ohne Nebenbedingungen.
Man nennt das Ganze auch häufig unbeschränkte oder unrestringierte Optimierungsprobleme und um
diesen Begriff festzuhalten, wollen wir erstmal mit einer Definition starten, bezogen auf das
allgemeine Optimierungsproblem im letzten Video. Unrestringierte Optimierung. Eigentlich müssen wir
da gar nicht so viel festhalten, das ist nur ein Spezialfall des allgemeinen Optimierungsproblems.
Das heißt, wenn wir ein allgemeines Optimierungsproblem in der Form vorliegen haben,
wie wir das aus dem letzten Video kennen, also liegt ein allgemeines Optimierungsproblem
in der Form. Wir wollen die Form jetzt hier einfach mal mit Sternchen versehen für diese Vorlesungen.
Wie sieht das Ganze nochmal aus? Das war im Prinzip diese Form. Das heißt, wir minimieren über den
unbekannten Parametervektor in einem Gebiet über eine Zielfunktion f von x, die reellwertig ist,
mit Nebenbedingungen, die entweder Gleichung oder Ungleichung sind. Also wenn wir etwas in dieser
Form vorliegen haben und eine zusätzliche Einschränkung haben, nämlich keine Nebenbedingungen,
was heißt das? Das heißt im Endeffekt, dass die Indexmengen E und I, die standen für Equality
und Inequalities, die müssen leer sein. Das heißt, wenn diese Bedingung gilt, dass E gleich E gleich
die leere Menge ist, das heißt im Endeffekt keine Nebenbedingungen, dann handelt es sich um ein
unbeschränktes oder unrestringiertes Optimierungsproblem. Unbeschränktes beziehungsweise
daher der Name des Kapitels unrestringiertes Optimierungsproblem. Solche Probleme sind im
Allgemeinen einfacher zu lösen, da wir unseren möglichen Bereich, unseren Suchtbereich für
Lösungen nicht einschränken und keine Nebenbedingungen mit in die Lösung einbauen müssen. Wenn man
jedoch mal ein restringiertes Optimierungsproblem hat mit Nebenbedingungen, dann gibt es im Allgemeinen
Möglichkeiten dieses in solch ein unbeschränktes Optimierungsproblem zu überführen und häufig
nimmt man für sowas Straftärme mit zur Zielfunktion hinzu, die, wenn sie quasi eine der Nebenbedingungen
verletzen, zusätzlich den Wert der Zielfunktion erhöhen. Wenn man das Ganze versucht zu minimieren,
dann versucht man natürlich auch diese Straftärme klein zu halten und damit hätte man im Endeffekt
die Möglichkeit ein unrestringiertes Optimierungsproblem zu betrachten, bei dem die Nebenbedingungen so gut
es geht eingehalten werden. Das Ganze können wir uns noch vielleicht als Bemerkung anschauen.
Und zwar häufig lassen sich restringierte Optimierungsprobleme in Unbeschränkte überführen.
Restringierte Optimierungsprobleme in unbeschränkte Optimierungsprobleme überführen.
Schreibt die Grünen, weil die im Allgemeinen einfacher sind. Das Ganze macht man mit sogenannten
Straftärmen. Wie sieht das Ganze aus? Als kleines Beispiel nehmen wir mal an, wir wollen
eigentlich eine Optimierung durchführen über alle x aus einem Grünid Omega, Teilen des
X und N über die Zielfunktion f von x mit der Nebenbedingung, dass c von x größer
als null sein soll. Wie können wir diese Nebenbedingungen jetzt einbauen, sodass wir ein unrestringiertes
Optimierungsproblem bekommen? Ein typischer Trick, den man macht, ist, man erlärt noch
einen quadratischen Term dazu, den man versucht klein zu halten. Man könnte das Ganze jetzt
unrestringiert schreiben in folgender Form. Minimiere überall x aus Omega f von x und
anstatt jetzt eine Nebenbedingung, eine harte zu formulieren, sagen wir, wir erlernen noch
ein Term, den gewichten wir mit einem Faktor, den wir selber wählen können, ein Lambda.
Das nennt man auch Regularisierungsparameter im Bereich Inverse Probleme. Und das Ganze
multiplizieren wir mit einem quadratischen Term, der uns sagt, okay, wir wählen das
Minimum von c von x und null. Wenn c von x negativ ist, dann wird dieser Wert wirklich
angenommen, ist er positiv, dann bleiben wir null, dann macht sozusagen dieser Straftämm
gar nichts und das bestrafen wir quadratisch. Das heißt, je kleiner c von x ist und je mehr
c von x die Nebenbedingungen verletzt, desto stärker wird dieser quadratische Term ins
Gewicht fallen und desto größer wird der Wert insgesamt der neuen Zielfunktion. Und
das heißt, wir kommen eigentlich bei der Optimierung dann in die falsche Richtung.
Damit erzwingt man sozusagen, dass die Nebenbedingungen, so gut es geht, eingehalten werden. Das heißt,
wir haben zum Beispiel hierfür ein restringiertes Problem und hier unten sozusagen die unrestringierte
Presenters
Zugänglich über
Offener Zugang
Dauer
00:19:52 Min
Aufnahmedatum
2021-06-27
Hochgeladen am
2021-06-27 15:08:03
Sprache
de-DE